Handwritten character recognition is a hot topic for research nowadays. If we can convert a handwritten piece of paper into a text-searchable document using the Optical Character Recognition (OCR) technique, we can easily understand the content and do not need to read the handwritten document. OCR in the English language is very common, but in the Bengali language, it is very hard to find a good quality OCR application. If we can merge machine learning and deep learning with OCR, it could be a huge contribution to this field. Various researchers have proposed a number of strategies for recognizing Bengali handwritten characters. A lot of ML algorithms and deep neural networks were used in their work, but the explanations of their models are not available. In our work, we have used various machine learning algorithms and CNN to recognize handwritten Bengali digits. We have got acceptable accuracy from some ML models, and CNN has given us great testing accuracy. Grad-CAM was used as an XAI method on our CNN model, which gave us insights into the model and helped us detect the origin of interest for recognizing a digit from an image.
translated by 谷歌翻译
Jamdani is the strikingly patterned textile heritage of Bangladesh. The exclusive geometric motifs woven on the fabric are the most attractive part of this craftsmanship having a remarkable influence on textile and fine art. In this paper, we have developed a technique based on the Generative Adversarial Network that can learn to generate entirely new Jamdani patterns from a collection of Jamdani motifs that we assembled, the newly formed motifs can mimic the appearance of the original designs. Users can input the skeleton of a desired pattern in terms of rough strokes and our system finalizes the input by generating the complete motif which follows the geometric structure of real Jamdani ones. To serve this purpose, we collected and preprocessed a dataset containing a large number of Jamdani motifs images from authentic sources via fieldwork and applied a state-of-the-art method called pix2pix to it. To the best of our knowledge, this dataset is currently the only available dataset of Jamdani motifs in digital format for computer vision research. Our experimental results of the pix2pix model on this dataset show satisfactory outputs of computer-generated images of Jamdani motifs and we believe that our work will open a new avenue for further research.
translated by 谷歌翻译
Generative models have been very successful over the years and have received significant attention for synthetic data generation. As deep learning models are getting more and more complex, they require large amounts of data to perform accurately. In medical image analysis, such generative models play a crucial role as the available data is limited due to challenges related to data privacy, lack of data diversity, or uneven data distributions. In this paper, we present a method to generate brain tumor MRI images using generative adversarial networks. We have utilized StyleGAN2 with ADA methodology to generate high-quality brain MRI with tumors while using a significantly smaller amount of training data when compared to the existing approaches. We use three pre-trained models for transfer learning. Results demonstrate that the proposed method can learn the distributions of brain tumors. Furthermore, the model can generate high-quality synthetic brain MRI with a tumor that can limit the small sample size issues. The approach can addresses the limited data availability by generating realistic-looking brain MRI with tumors. The code is available at: ~\url{https://github.com/rizwanqureshi123/Brain-Tumor-Synthetic-Data}.
translated by 谷歌翻译
洪水是大自然最灾难性的灾难之一,对人类生活,农业,基础设施和社会经济系统造成了不可逆转和巨大的破坏。已经进行了几项有关洪水灾难管理和洪水预测系统的研究。实时对洪水的发作和进展的准确预测是具有挑战性的。为了估计大面积的水位和速度,有必要将数据与计算要求的洪水传播模型相结合。本文旨在减少这种自然灾害的极端风险,并通过使用不同的机器学习模型为洪水提供预测来促进政策建议。这项研究将使用二进制逻辑回归,K-Nearest邻居(KNN),支持向量分类器(SVC)和决策树分类器来提供准确的预测。通过结果,将进行比较分析,以了解哪种模型具有更好的准确性。
translated by 谷歌翻译
物联网(IoT)是一个新兴的概念,它直接链接到连接到Internet的数十亿个物理项目或“事物”,并且都在收集和在设备和系统之间收集和交换信息。但是,IoT设备并未考虑到安全性,这可能会导致多设备系统中的安全漏洞。传统上,我们通过调查物联网开发商和专家来调查物联网问题。但是,该技术是不可扩展的,因为对所有物联网开发人员进行调查是不可行的。研究物联网问题的另一种方法是在主要在线开发论坛(如Stack Overflow(So))上查看IoT开发人员讨论。但是,发现与物联网问题相关的讨论是具有挑战性的,因为它们经常不属于与IoT相关的术语。在本文中,我们介绍了“ IoT安全数据集”,这是一个针对7147个示例的特定领域数据集,仅针对IoT安全讨论。由于没有自动化工具来标记这些样品,因此我们将其标记为标签。我们进一步采用了多个变压器模型来自动检测安全讨论。通过严格的调查,我们发现物联网安全讨论与传统的安全讨论更加不同,更复杂。当我们从通用数据集“ Opiner”转移知识时,我们证明了跨域数据集上的变压器模型的大量性能损失(多达44%)。因此,我们构建了一个特定于域的IoT安全检测器,F1得分为0.69。我们已经公开了数据集,希望开发人员能够了解有关安全性讨论的更多信息,并且供应商将加强他们对产品安全的担忧。
translated by 谷歌翻译
多药物(定义为使用多种药物)是一种标准治疗方法,尤其是对于严重和慢性疾病。但是,将多种药物一起使用可能会导致药物之间的相互作用。药物 - 药物相互作用(DDI)是一种与另一种药物结合时的影响发生变化时发生的活性。 DDI可能会阻塞,增加或减少药物的预期作用,或者在最坏情况下,会产生不利的副作用。虽然准时检测DDI至关重要,但由于持续时间短,并且在临床试验中识别它们是时间的,而且昂贵,并且要考虑许多可能的药物对进行测试。结果,需要计算方法来预测DDI。在本文中,我们提出了一种新型的异质图注意模型Han-DDI,以预测药物 - 药物相互作用。我们建立了具有不同生物实体的药物网络。然后,我们开发了一个异质的图形注意网络,以使用药物与其他实体的关系学习DDI。它由一个基于注意力的异质图节点编码器组成,用于获得药物节点表示和用于预测药物相互作用的解码器。此外,我们利用全面的实验来评估我们的模型并将其与最先进的模型进行比较。实验结果表明,我们提出的方法Han-DDI的表现可以显着,准确地预测DDI,即使对于新药也是如此。
translated by 谷歌翻译
药物 - 药物相互作用(DDIS)可能会阻碍药物的功能,在最坏的情况下,它们可能导致不良药物反应(ADR)。预测所有DDI是一个具有挑战性且关键的问题。大多数现有的计算模型都集成了来自不同来源的药物中心信息,并利用它们作为机器学习分类器中的功能来预测DDIS。但是,这些模型有很大的失败机会,尤其是对于所有信息都没有可用的新药。本文提出了一个新型的HyperGraph神经网络(HYGNN)模型,仅基于用于DDI预测问题的任何药物的微笑串。为了捕获药物的相似性,我们创建了从微笑字符串中提取的药物的化学子结构中创建的超图。然后,我们开发了由新型的基于注意力的超图边缘编码器组成的HYGNN,以使药物的表示形式和解码器,以预测药物对之间的相互作用。此外,我们进行了广泛的实验,以评估我们的模型并将其与几种最新方法进行比较。实验结果表明,我们提出的HYGNN模型有效地预测了DDI,并以最大的ROC-AUC和PR-AUC分别超过基准,分别为97.9%和98.1%。
translated by 谷歌翻译
远程光插图学(RPPG)是一种快速,有效,廉价和方便的方法,用于收集生物识别数据,因为它可以使用面部视频来估算生命体征。事实证明,远程非接触式医疗服务供应在COVID-19大流行期间是可怕的必要性。我们提出了一个端到端框架,以根据用户的视频中的RPPG方法来衡量人们的生命体征,包括心率(HR),心率变异性(HRV),氧饱和度(SPO2)和血压(BP)(BP)(BP)用智能手机相机捕获的脸。我们以实时的基于深度学习的神经网络模型来提取面部标志。通过使用预测的面部标志来提取多个称为利益区域(ROI)的面部斑块(ROI)。应用了几个过滤器,以减少称为血量脉冲(BVP)信号的提取的心脏信号中ROI的噪声。我们使用两个公共RPPG数据集培训和验证了机器学习模型,即Tokyotech RPPG和脉搏率检测(PURE)数据集,我们的模型在其上实现了以下平均绝对错误(MAE):a),HR,1.73和3.95 BEATS- beats-beats-beats-beats-beats-beats-beats-beats-beats-beats-beats-beats-beats-beats-beats-beats-s-s-s-s-s-y-peats-beats-beats-beats-ship-s-s-s-in-chin-p-in-in-in-in-in-c--in-in-c-le-in-in- -t一下制。每分钟(bpm),b)分别为HRV,分别为18.55和25.03 ms,c)对于SPO2,纯数据集上的MAE为1.64。我们在现实生活环境中验证了端到端的RPPG框架,修订,从而创建了视频HR数据集。我们的人力资源估计模型在此数据集上达到了2.49 bpm的MAE。由于没有面对视频的BP测量不存在公开可用的RPPG数据集,因此我们使用了带有指标传感器信号的数据集来训练我们的模型,还创建了我们自己的视频数据集Video-BP。在我们的视频BP数据集中,我们的BP估计模型的收缩压(SBP)达到6.7 mmHg,舒张压(DBP)的MAE为9.6 mmHg。
translated by 谷歌翻译
5G无线技术和社会经济转型的最新进展带来了传感器应用的范式转移。 Wi-Fi信号表明其时间变化与身体运动之间存在很强的相关性,可以利用这些变化来识别人类活动。在本文中,我们证明了基于时间尺度Wi-Fi通道状态信息的自由互助人与人类相互作用识别方法的认知能力。所检查的共同活动是稳定的,接近,离职的,握手的,高五,拥抱,踢(左腿),踢(右腿),指向(左手),指向(右手),拳打(左手),打孔(右手)和推动。我们探索并提出了一个自我发项的双向封盖复发性神经网络模型,以从时间序列数据中对13种人类到人类的相互作用类型进行分类。我们提出的模型可以识别两个主题对相互作用,最大基准精度为94%。这已经扩展了十对对象,该对象对围绕交互 - 转变区域的分类得到了改善,从而确保了88%的基准精度。同样,使用PYQT5 Python模块开发了可执行的图形用户界面(GUI),以实时显示总体相互交流识别过程。最后,我们简要地讨论了有关残障的可能解决方案,这些解决方案导致了研究期间观察到的缩减。这种Wi-Fi渠道扰动模式分析被认为是一种有效,经济和隐私友好的方法,可在相互的人际关系识别中用于室内活动监测,监视系统,智能健康监测系统和独立的辅助生活。
translated by 谷歌翻译
建立针对双狭窄的动脉模型的计算流体动力学(CFD)的患者特异性有限元分析(FEA)模型涉及时间和努力,限制医生在时间关键时间医疗应用中快速响应的能力。这些问题可能通过培训深度学习(DL)模型来解决,以使用由具有不同配置的简化双韵动脉模型的CFD模拟产生的数据集来学习和预测血流特性。当通过从IVUS成像的实际双狭窄的动脉模型进行血液流动模式时,揭示了狭窄的颈部几何形状的正弦逼近,这些颈部几何形状被广泛用于先前的研究作品,未能有效地代表真实的效果收缩。结果,提出了一种收缩颈的新型几何表示,其就广义简化模型而言,这始终是前者的假设。动脉腔直径和流量参数的顺序变化沿着船长的长度呈现使用LSTM和GRU DL模型的机会。然而,对于短长度的倍增血液动脉的小数据集,基本神经网络模型优于大多数流动性质的专用RNN。另一方面,LSTM对预测具有大波动的流动性能更好,例如在血管的长度上变化血压。尽管在数据集中的船舶的所有属性训练和测试方面具有良好的整体准确性,但GRU模型在所有情况下为单个血管流预测的表现不佳。结果还指向任何模型中每个属性的单独优化的超级参数,而不是旨在通过单一的HyperParameters来实现所有输出的整体良好性能。
translated by 谷歌翻译